ERIKA by Hiroshi Ishiguro Laboratory, ATR & Osaka University, Hiroshi Ishiguro
作者:马克·安德烈耶维奇(Mark Andrejevic,莫那什大学媒介、电影与新闻学院)来源:同名著作(Routledge,2019)第一章发明家、未来学家、谷歌大佬雷蒙德·库茨魏尔(Ray Kurzweil)对不朽(immortality)和复活(resurrection)有一股世俗的幻想。他不仅每天服用“数千美元”的维生素来维系他的生命,直到有技术可以将他的意识上传到机器中,而且他搜罗他已故父亲的信息,以便他的父亲能够以人工智能(AI)的形式转世。库茨魏尔想象,如果他的父亲成功在“奇点”(singularity,人类和机器的意识融合)之处复活,档案材料和机器学习(machine learning)的特定组合将构建起一个他“父亲”的数字版本,他可以与之交谈——也许是永恒的。在那之前,他相信,他父亲的人工智能将不仅是他父亲的精准复制品,而且用他的话说,“比起我父亲,他更像我父亲”。乍一看,这只不过是油滑的未来主义者的夸夸其谈(尽管带有一种有趣的后恋母情结的精神分析意味)。这种表述隐含着一种精神分析观点——主体不具有自我同一性,也就是说,主体的某些方面是它自身所不能获得的东西。悖论的是,具有同一性的数字主体根本不会像那个实际的主体一样,相反,它会比那个实际的主体“更加”一致。说一个由数据驱动的模拟物可能“更像”某个人而不“是”某个人,就是在暗示它会“更加具有同一性”,也许会达到某种主体本身无法达到的理想化程度。
然而,如果不具有同一性和差异是主体的固有特征,那么试图“完善”主体就等于试图抹杀主体。不过,库茨魏尔的目标是通过摆脱空间和时间上的主体限制而实现数字化的不朽。
也许可以预见的是,技术永生的承诺与自动化(automation)的承诺不可分割。在每一个转折点上,自动化都能取代人类的局限性。当涉及主体的命运时,自动化不仅具有机械的形式(比如在工厂里),也具有信息的形式。自动化的媒介预示着主体性的自动化。例如,只要有足够的信息,营销人员就可以在我们真正体验之前满足我们的需求和欲望;预测性的警务系统利用不断增长的数据库,在犯罪出现的前一刻将目标锁定。“智能”的各种接口正在监测我们日常生活的节奏,以跟踪微小的偏差,发出信号并预测我们尚无法察觉的变化——衰老或抑郁的迹象,幸福或疾病。自动化可能通过预测人们的愿望和需求而更有效地“服务”于主体;或者,通过预先阻止反社会的欲望而更有效地保障社会。它们解决了一个可以被感知的问题,这个问题关乎主体带来的不确定性、不可预见性、不同一性和阻力。这个问题源于主体的不可预测性,它顽固,还常常非理性,从而对控制、管理和统治系统构成威胁。一个自动化的主体可以让一个完全自动化的社会流畅而无摩擦地运行,而真正的主体可能会把系统搞乱。例如,自动驾驶汽车的推动者认为人类不可预测的行为是一个顽固的障碍。这种情绪并不罕见。库茨魏尔的说法还蕴含着另一个精神分析的观点。后恋母期的人类试图恢复没有无意识的父亲形象。自动化的、不朽的父亲反映了人工智能的某种版本,它是一个吞噬数据的“大他者”,能够以人类自己无法理解的方式理解世界。面对渗透到信息领域的、自动生成的大量数据,人工智能凸显了人类信息处理的局限性。自动信息处理的技术幻想在于,这是历史上第一次,人类不再简单地承认不可能吸收和理解一切可用的信息,也不再把这个过程归结为一个不可触及的形而上学问题,而是期待为人类自己找到一个位置,诉诸被奴役的“机器之神”。这种前景的诱惑在于,总体性(totality)的观点不再只是信仰,而是可以在现实中建立起来的东西。最后,一切似乎都是可知的了。对人类或自然风险不再有任何怀疑。气候变化可以精确衡量,我们将不再依赖变幻莫测或欺骗性的证据,而是可以直接“进入”数据记录。显而易见,库茨魏尔的“父亲幻想”是一个真正的“大他者”,不是象征性的,而是真实的。
Intelligent Machines, Ted Thai, 1996-02
诚然,尽管库库茨魏尔在谷歌享有声望,但他在某种程度上是个异类。他将当代的自动化逻辑发挥到了极致。他幻想“奇点”是有限性的终结,因此主体性抓住了当代信息社会反复出现的一个主题——只要有足够的信息,任何事物都可以自动化,包括主体(或许尤其是主体)。在个人信息的大规模数据挖掘时代,我们已经熟悉了这种规格化的逻辑:。它表现在营销人员声称“比我们自己更清楚我们想要什么”; 表现在越来越多的自动筛选系统,以确定我们是否可能成为好学生、好雇员、好公民; 确定我们是风险还是机会、是资本还是负债。主体是自动化的目标,因为它在消费(作为一个渴望的主体)、生产(作为劳动和创造力的中心)、政治(作为选民、抗议者或颠覆分子)和安全(作为受害者和威胁)中扮演的角色。所有这些都是潜在的摩擦点或阻力,以加速塑造当代生活的社会和经济进程。数字平台使人们能够以越来越快的速度创造和传播信息,改变消费和生产过程。我们正经历着詹姆斯·贝尼格(James Beniger)所说的“控制革命”(“control revolution”)。在贝尼格的描述中,电子信息系统帮助产品的流通和分配方式合理化(rationalise),以跟上制造的步伐。早期的自动化生产形式与官僚主义的合理化相结合,导致了“大规模生产的货物泛滥”,反过来,它又需要“相应的信息处理和电信基础设施”。随着制造速度和数量的提升,这种生产驱动的过程从工厂车间向外流动。机械化运输有助于原材料和成品的流通,但这些又需要新的信息控制系统,包括电报和最终的数字通信技术。媒介系统不仅是生产和运输的“神经系统”,也是通过宣传和广告促进消费的手段。随着大规模定制和越来越多的信息服务的兴起,我们已经达到了这样的地步——消费者越来越详细的信息之中,有一些是由他们的行为和通信元数据生成的,又被直接反馈到生产过程中。现在,消费和社会领域产生的信息产品流回工厂和广告公司,使生产和广告进一步合理化。从概念上讲,生产的自动化将与消费的自动化相辅相成,形成一个自我刺激的螺旋。在工业时代,对生产的关注突出了自动化劳动的形象——机器人的体力、速度、耐力和可靠性有望超过它的人类前辈。然而,由于自动生成的信息在生产、分配和消费的合理化过程中发挥着核心作用,人工智能“机器化”了脑力劳动,它承诺增强或取代人类在通信、信息处理和决策中的作用。人工智能复苏了精神领域自动化的前景,比人类更快、更高效、更强大。
在这种情况下,自动化的活动不是像焊接或钻孔那样的体力劳动,而是信息和沟通工作,也就是收集、整理和处理信息,以产生相关性和决策。罗伯特 · 赖希(Robert Reich)称之为“符号分析人员”的工作。这些都是创造意义(meaning)的过程,依赖于对相关信息的理解和有效的判断。这种过程不同于物理工作的形式。物理工作可以自动化,而不必重新构造重要性和表现形式的概念。这种观点还认为,人类的局限性是很容易被自动化超越的东西。
心理生产被类比为物理生产,两者都可以用机器增加或取代人类来加快速度。然而,这里忽视了“欲望”和“判断”带来的复杂性,这种固有的张力存在于意识和无意识、个人和集体、文化和自然之间。因此,自动化需要重构主体。借用库茨魏尔的表述,这个过程使主体更像自己。通常,自动化抽象了动机和意图。因此,自动化“智能”避开了主体性自身,而关注最新的计算机成就——如今,机器可以在国际象棋、围棋和一些电子游戏中击败我们。但很少有人谈及机器是否“想”击败我们,或者它们是否因为赢得太轻松而感到无聊或沮丧,觉得自己还有很多其他事情可以做。这样的观察似乎很荒谬,这表明我们对人类主体能力的定义是多么狭隘,就把这种狭隘当成自动化的条件。我们从人类的欲望中抽象出来,认为衡量人类智能的真正标准在于计算一步又一步的棋,而不是首先发明和普及这个游戏,通过下棋来娱乐自己,并希望获胜(也许也让别人获胜)。这些活动确实是所谓人类智能的核心。尽管当我们思考机器“智能”之时,这些活动被忽视了。也许这种遗漏源于我们对工业自动化的思考方式。我们没有兴趣将智能或欲望归于工业机器,或将它们作为认知和判断的模型——它们仍然被嵌入到一种熟悉的劳动分工中(脑力和体力;计划和执行),这使它们没有任何类似于智能或认知的东西。然而,这一观点并不承认精神和物质之间的某种固有划分。机器人技术依赖于劳动的非技能化(de-skilling)、非社会化(de-socialization)和标准化(standardization)的漫长历史,这有助于降低成本,使生产过程常规化,以至于可以被机器接管。为了促进工业自动化,精神和物质必须被系统性地强行分离。生产过程必须从传统的劳动关系中分离出来,剥离其社会和精神特征,并重构为轻率且古板的形式。同样,信息实践也需要去社会化,为信息的自动化铺平道路。换言之,我们可以追溯一条轨迹,该轨迹与传播领域内发生的体力劳动的去技能化平行。在信息通信中,这些系统促进了社会分化和信息收集、处理和回应的自动化。例如,在学术领域,“课程软件”的兴起促进了教学程序的标准化;剽窃检测软件依赖算法排序。随着这些平台的接管,它们很可能依赖于教师日益密集的“预处理”形式,依赖于学生自动化数据收集的新维度。大学申请、工作申请、医疗保健表格以及越来越多的官僚系统在线表格也是如此。与此相关的是,许多社交媒体发布系统的标准格式促进了算法排序和处理。对一条140字的Twitter进行情感分析比对一篇文章或一封信要容易得多。我们填写表格,参与“预处理”信息(填写越来越多的在线表格),并将我们所有的内容放在云端,这些都让人觉得是通往自动化的步骤。它们系统性地分割和标准化了表达与评估的组成部分,这样做的危险在于侵蚀了潜在的同一性和支配性逻辑,因为这些逻辑不能被分解为它们的组成部分。数据的自动收集和处理有望实现。借鉴马克思主义的术语,我们可以描述为“真正的从属”(“real subsumption”)的完善。正如大卫·哈维(David Harvey)所说,“真正的从属”取决于监视和合理化进入劳动过程,从而取决于受监视的工厂空间和雇佣劳动的崛起。根据这一说法,按小时计酬的劳动不适用于发生在家里的工作,因为它无人监督。因此,早期的家庭生产形式按件而非按小时来计。只有当劳动力转移到工厂围墙的监督空间时,才可以实行小时工资。由于监督者也必须得到报酬,这些空间必须足够大,以允许尽可能多的人被尽可能少的人监督(全景监视的指导原则)。形式的从属(formal subsumption)和真正的从属之间有些区别,后者在内部重组了劳动过程。例如,流水线和科学管理的兴起,实现了劳动过程之重构和合理化——工人的每一个动作都受到监控和管理,以从每小时的工资劳动中攫取最大价值。合理化过程重构了工人的身体动作、姿势和做法。真正的从属过程是一个持续的过程,监测技术和创新的发展促进了劳动过程的重构(比如追踪货车司机的技术,或检测销售人员与客户互动表情的技术)。大卫·哈维认为,以家庭为基础的生产和独立承包复苏了,这意味着“真正的从属”退却。但这似乎不正确。各种监测系统迁移到工厂墙外。当网上的虚拟围墙比任何人类监督员都能捕捉到更多信息时,工厂的物理围墙就不再需要了。打工经济是一个高度自动化的系统,用于协调分散在各地的工人的活动。因此,它标志着一种“完善”的做法,而不非退却。信息依赖于监测过程,最大限度地减少了责任的推卸,并重构了工作过程,以获得最大的效率。将工人封闭在工厂的工作空间里,可以以效率和生产力的名义对他们的活动进行详细监测。所谓的科学管理依靠细节监控,通过对工人的行动进行微观管理来提高效率。这在20世纪初看起来是一种过时的时尚,因为它创造了一个额外的劳动层,毕竟每几个工人就有一个监督者。然而,随着能够自动跟踪员工的交互式系统兴起,超出科学管理者最疯狂梦想的审查又被重新唤起。现在,超市扫描仪可以详细监测收银员的速度,GPS设备可以跟踪卡车司机和包裹运送车,而亚马逊公司已经申请了“科学管理”创始人弗雷德里克·泰勒(Frederick Taylor)会喜欢的系统专利(一种腕带)。当工人在仓库中移动时,腕带跟踪他们的位置,如果他们拿错东西就会发出嗡嗡声。更为普遍的是,随着机械效率被推到极限,人们开始转向信息效率,希望能从生产过程中挤出更多价值。我们可以把这种数据驱动的东西称作为资本主义的“害怕错过”。如果一切都知道了,那么所有的机会都可以被利用,也就没有什么会被错过。类似的逻辑渗透到我们的信息环境中。零工经济利用网络化的信息系统,将尽可能多的闲置资源用于工作——你的车在周末闲置了吗?把它租出去吧。你在晚上有一些空闲时间吗?为Uber、Lyft或亚马逊送货开车。当你不在城里时,你要把房子放在AirBnB上出租吗?闲置工具?家具?时间?都可以被利用起来。甚至我们的社交生活也受制于信息合理化进程。自动化媒介将“社交性”承托到数字系统上,就像工业化的大规模生产允许将体力劳动安放到机器、装配线上(以及最终的机器人上)。就像身体上的去技能化为机械化的自动化铺平了道路一样,社会的去技能化预示着新形式数据驱动的自动化。这一直是批评者的心声——从哲学家休伯特·德雷福斯(Hubert Dreyfus)到文化批评家尼古拉斯·卡尔(Nicholas Carr)和麻省理工学院(MIT)教授雪莉·特克尔(Sherry Turkle)。体力劳动的自动化为人类保留了规划者和控制者的角色,即成为负责机械化生产线的监督者。在新的社会环境下,自动化也承诺解放劳役。因此,技术想象中有一种后人道主义倾向。如果自动匹配的系统可以超越人类的身体和精神能力,那么,人要避免被淘汰,就意味着要与机器合并。这种合并的矛盾之处在于,它想象主体可以和取代它的程序一起被保护起来。库茨魏尔假设,他父亲的自动化版本比其本人更具有同一性、更合逻辑。这无意中引用了精神分析的观点。主体对他们自己来说并不易被认识,因为他们固有的、无意识的分裂使他们无法始终如一。在实践中,这种非自我同一性意味着,我们会发现自己在说或做一些我们不期望或不打算做的事情。对于库茨魏尔来说,自动化可以用数据弥合这个差距,无意识足可以通过信息来体现。这也许是主体自动化的最清晰定义——消除“匮乏”,从而消除欲望。在数字时代,“先发制人”的做法为当代自动化的前景提供了保障。数据驱动的系统会先于我们而知道我们想要什么,无论是消费、交通还是暴力。分析系统开发出来预测人们什么时候生病,分析他们的“威胁等级”是什么,用于执法,分析员工是否可能辞职,求职者是否是一个好员工,以及某人是否可能有犯罪倾向。这些系统试图预测的人类行为范围仅仅受到可用数据的限制。如果说在工业时代,取代手工劳动是自动化的承诺,那么在信息时代,它是为了抢占能动性、自发性和风险——在发生之前描绘出可能的未来,这样就可以排除令人讨厌的未来,选择理想的未来。我认为,完美的、“先发制人”的预测不可能实现,但这种不可能性也不妨碍它被动员起来,以使越来越全面的数据收集和处理形式合法化。这并不是要否认在许多情况下,数据收集和分析可以协助有效且高速的预测形式。诚然,计算机系统在预测机械部件何时会失效、使运输更有效率以及在火星上放置探测器等方面发挥了重要作用。然而,试图将人类的主观能动性和政治性同化到这种系统中,有可能忽视两者之间的结构和范畴差异。自动化分析和自动化媒介系统是预测系统的先决条件。在这些系统中,有一套信息连续传递的逻辑(cascading logic,或译作“层叠式逻辑”)在起作用,也就是说,自动化的数据收集导致自动化的数据处理,这反过来又导致自动化回应。这就是当前信息环境的总体轨迹,以“先发制人”的速度实现自动化行动。交互式传感器网络(例如新一代的智能音箱)产生的信息洪流是人类信息处理能力所不及的。智能音箱能够在它嵌入的数百万个家庭中收集关于声音的详细信息,从椅子腿在地板上的刮擦声到某人的打字声,再到对话的内容。一旦自动化系统被用来解释数据,下一个合乎逻辑的步骤就是实现自动化回应,比如根据数据揭示的模式播放音乐时,不仅针对个人用户,而且针对整个听众群体,允许使用协同过滤(collaborative filtering)和预测分析(predictive analytics)等策略来预测收听偏好。这种逻辑在整个信息领域得到了复制。像硅谷的Summit Learning(由马克·扎克伯格和他的妻子Priscilla Chan资助)这样的个性化学习平台能够通过平板电脑评估学生表现,为他们定制学习模块。人们在家里的活动细节也可以用来诊断健康状况,以达到医疗干预、员工筛选或营销的目的。自动数据收集导致自动评估,这反过来又使各种自动化回应成为可能。也许这种自动化的逻辑顶点就是所谓的“物联网”,或者说无处不在的计算基础设施,它承诺以无尽的数据生成传感器加强物体世界。我们所有的设备、空间和工具都会收集它们“如何被使用”的信息,这些信息又会被转发给那些控制平台的人。只有通过发展自动化系统,以迄今为止难以想象的规模处理数据,感知世界所产生的大量数据才能得到控制。反过来,这些系统又使人类无法判断的决策形式成为可能,例如,如何调整成千上万辆汽车的轨迹,使其实时适应不断变化的道路状况,或者将分散在成千上万篇期刊文章中的药物相互作用(drug interactions)报告联系起来。自动化信息处理的前景是帮助人类理解由无处不在的分布式互动新形式所记录和生成的海量信息。一旦机器开始理解这些信息,下一步就是让它们投入使用。这种信息连续传递的逻辑有助于解释自动化所产生的焦虑,不仅因为自动化将取代人类劳动(以工作的形式),还因为人类的自主性(autonomy,社会、经济和政治方面)。在这方面,自动化表现出一系列的辩证反转,将过程转化为它们的对立面——社会性转化为社会隔离,政治转化为技术,自主性转化为自动性。数据收集渠道的激增使我们收集到政治受众们前所未有的大量信息。同样,作为一种新闻媒体,互联网的发展也促成了候选人和议题的信息雪崩,其中大部分是虚假的、欺骗性的或操纵性的信息。在竞选信息和政治报道的两端,信息的稀缺性被数据的超载破坏。剑桥分析公司(Cambridge Analytica)政治顾问的著名案例表明,在社交网络平台上收集的数据被用于政治目的,比如压制选民。迈克尔·科辛斯基(Michael Kosinski)是剑桥分析公司的研究员,他利用从Facebook上收集的信息来推断个人用户的特征,这些特征可以用来影响他们的行为。科辛斯基证明,根据用户在Facebook上点的68个“赞”,就可以预测他们的肤色(准确率为95%),他们的性取向(准确率为88%),判断他们支持民主党还是共和党(准确率85%)。毫不奇怪,数字阶层提出的技术官僚解决方案不是为了减少目标,而是增加目标。麻省理工学院媒体实验室(MIT Media Lab)的塞萨尔·伊达尔戈(César Hidalgo)教授表示,在信息“过剩”的背景下,如果人类公民再无力保持有效信息,或许人工智能应该介入并提供帮助。伊达尔戈认为,“数字行动者”(“digital agents”)可以收集和评估有关问题的详细信息,根据可以收集到的选民信息,替选民做决定。这是亚马逊公司对民主这一古老挑战的解决方案。只要有足够的选民信息,自动化系统就能比他们自己更了解他们的偏好。根据这种方法,人工智能系统可能最终完全取代政治代表的需要,用人工智能的国会取代立法者的国会:“数字行动者可以整合我们的决策,帮助我们在更大的范围内做决定。这些数字行动者可以连接在一起,形成一种自动化的国会。”即使政治消失,也不再令人讶异,因为政治依赖于混乱和低效的审议、阐释和代议制形式。人工智能驱动的“民主”豁免了低效、扭曲、充满人类摩擦的决策过程,仿佛治理一旦摆脱了政治的变幻莫测,就会变得更加“高效”和“客观”。我们可能会把这种尝试解读为一种让步。如果人类已经破坏了他们为达成共同的政治判断而进行真诚商讨所需的技能,也许他们可以依靠机器来为他们做这件事。无论将混乱的民主事务转移到机器上的动机是什么,政治的自动化预示着政治的解体。从许多科技界人士的角度来看,这似乎是一种进步。正如理查德·巴布鲁克(Richard Barbrook)和安迪·卡梅伦(Andy Cameron)在他们对硅谷自由主义的初步批判中所说,政治是个问题,而效率和通信技术是解决方案:“现有的社会、政治和法律权力结构将逐渐消失,取而代之的是自主的、个人和软件之间无拘无束的互动。”这些政治上的右翼一直在试图抹杀政治,以便用一种消费主义的社会模式来取代它,这种模式以牺牲社会性形式为代价,而这些社会性形式是历史上个体性(individuality)概念的基础。类似的情况也发生在社会性(sociality)之上。长期从事数字媒介研究的雪莉·特克尔对超连接性(hyper-connectivity)造成的社会性的缺失表示遗憾。游乐场事故的增加与父母、保姆盯着手机而不是孩子有关;大学生从一个房间给另一个房间的同学发短信,而不是当面交谈。特克尔发现,对她的受访者来说,管理庞大的社交媒体网络可能非常耗费时间,以至于人们寻找最有效的方式来相互沟通——发短信而不是打电话(这被认为是过于打扰和过时的“单任务”形式);使用速记符号(点赞、转发),与朋友和家人互动采取异步模式,等等。在提高我们媒介性互动(mediated interactions)水平的同时,也付出了一定代价。我们最终会减少或降低面对面的互动。这不仅仅是夫妇盯着他们的手机,在曾经被描述为浪漫晚餐的场景中疯狂打字的问题。这也是管理多种形式的媒介通信的问题,这些通信承诺用“社会性”征服我们。《连线》(Wired)杂志在一篇题为“为什么青少年不再参加聚会”的文章中称,1995年及以后出生的年轻人“花在聚会上的时间比以往任何一代都少。大学生的趋势也是如此。”文章引用了圣地亚哥州立大学一年级学生的调查,报告显示,2016年的学生比三十年前的学生每周花在“人际交往”上的时间少了七个小时。文章中采访的一位学生说:“我们这一代人对面对面社交失去了兴趣,人们没有实体聚会,只是一起发短信,我们可以直接呆在家里。”同样的道理,面对面的交流已经沦为多维接口环境中的一个向量,因为人们同时以快速、实时的方式管理多个社交平台。毫无疑问,媒介接触的频率、速度和范围都大大加快了,但超社会性也有一个反社会的层面,自动发短信应用程序的出现就是证明。例如,一个名为Molly的平台对用户进行分析,以便对文本信息进行自动回复。正如一个媒体报道所说的那样:它将利用机器学习提供一些尚未在系统中使用的答案。通过使用,应用程序可以收集到你的所有信息(在创建个人资料之后,你可以选择添加社交账户,Molly 可以从中学习),它将能够预测与你相关的问题。用户不再直接与对话者交流,而是与机器人互动,永远地在线。这种技术的出现并不令人惊讶。随着“不断连”的需求多了起来,自动化提供了一种现成的方案。谷歌正在开发一套基于人工智能的短信自动回复系统,该系统将允许用户看一眼系统给出的建议回复,然后再点击回复按钮。开发者表示:“该系统显然可以找出人们对你说的话,并给出一键回复的建议,但谷歌会更进一步,将你的位置、日历和其他信息也纳入考虑。”通过自动化的辩证逆转,社会性的加速最终导致了它的内爆,是超互动性与数字唯我主义(digital solipsism)的融合。在政治和社会性的例子中,自我抹除(self-obliteration)。这让人想起弗洛伊德的“驱力”(drive)。正如他在讨论快乐原则(the pleasure principle)时所说,它的运作是为了“使精神装置完全摆脱兴奋”。意思是,驱力的目标与其说是为了发掘新的兴奋点,不如说是为了实现因满足“本能冲动”而产生的停滞,比如亚马逊对预期消费的幻想,在消费冲动出现之前满足它。类似的事情也发生在对政治的反感(antipathy)中。在自动化的政治中,审议、研究和反思不再是公民身份的必要组成部分。如果人类从根本上说是“政治的动物”,那么,自动化的冲动可能被理解为非人类的东西,旨在抹除人类社会生活的特征实践。社交媒体使社会性自动化,无尽的沉寂是欲望的终结,豁免了人类社会和政治生活的嘈杂劳作。这种自我消解在社交媒体造成的强迫性中反复出现。在沟通的名义下,一种持续的自我安慰形式取代了人类相遇的变化无常。打发时间的疯狂与信息和社会性的消费加速相关,而这只有通过自动化才能完全实现。或许,自动化和死亡驱力之间最直观的例子是所谓的致命性自动武器(LAWs,或译作“自主武器”),它将人类行动者从生死决策的指挥链中剔除。虽然致命性自动武器听起来像是从科幻小说中攫取的牵强幻想,但领先的人工智能研究人员已经表达了他们的担忧,即该技术“已经达到了某种地步,在几年而不是几十年内就可以部署这种系统,而且风险很高。自动武器被描述为继火药和核武器之后战争的第三次革命”。近4000名人工智能研究人员签署了一封公开信,呼吁在全球范围内禁止开发此类武器。引人注目的是,这封信的重点不是杀人的自动化本身,而是致命性武器可能广泛散布,从而落入坏人手中的可能性。它们迟早会出现在黑市上,落入恐怖分子手中,落入希望更会控制民众的独裁者手中,落入希望制造种族清洗组织的军阀手中,等等。自动武器非常适合用于暗杀、破坏国家稳定、征服民众、选择性地杀害某一特定种族。因此,我们认为,军事人工智能军备竞赛不会对人类有益。不出所料,一些政治右翼强烈支持开发自动杀人机器,回应他们严重软弱无能的和平主义者和行善积德之辈。矛盾的是,小布什任期内,批准美国陆军与中央情报局在伊拉克战争中对战俘施行暴力审讯的柳约翰(John Yoo)为致命性自动武器进行激烈辩护。他的“人性化”战争理由在于,机器可能比人类更有鉴别力:批评家们关心的是把人类排除在战斗决策之外。但是,人类的直接参与并不一定会使战争更安全、更人道或更少煽动性。人类士兵变得疲惫,在冲突中变得情绪化,这可能导致判断错误和过度使用武力。换句话说,当涉及到判断的问题时,在某些环节上,机器可能比人类优越。人们声称,真正的危险在于美国对冲突过于谨慎——在情况需要的时候,没有足够的热情介入。正如他们所说:“如今,更大的风险是美国根本不会干预,任由严峻的挑战加剧。”在这一点上,作者的真实立场浮现出来。他们并不反对机器人武器的干预。他们只是不同意,“机器人武器可以减少阻碍美国及其盟友干预人道主义灾难或内战的成本。”自动化武器使杀戮行为与传统战争脱节。生命政治学(biopolitics)的隐喻因此成为不对称战争的特点,它倾向于将恐怖“细胞”的出现视为系统性的威胁,像身体的外来感染一样被根除。敌人不是像兔子一样被射杀,而是像病毒一样被铲除。自动致命武器被描绘成国家体内循环的白细胞,摧毁内部(或外部)威胁。需要什么程度的确定性来“消除”一个可能在某个不确定的未来实施敌对行为的人?如果到了极限,就会有一个概率,无论多么小,任何人都可能变成一个威胁。因此,对生命的保护取决于对生命的逐步消除。生命政治学演变成了姆贝贝(Mbembe)所说的“死亡政治学”(necropolitics)——为了让人活着,就要让人死去。确保人口安全取决于越来越高效的系统。根据福柯的观点,这种生命权力形式的悖论在于,一旦杀戮被正常化(normalized),成为以生命为借口确保人口安全的常规方法,那么,一种自我吞噬的净化逻辑就被释放出来。每个人都成为潜在的目标。对不确定性的根除以死亡驱力为幌子,确保永久安全的唯一途径就是“完全的预先控制”。机器人反对人类创造者歇斯底里的幻想,所有可能的威胁都被预先阻止,让人类回到尘埃的沉寂。【延伸阅读】